Passer au contenu

Premiers tests : que valent les Nvidia GeForce RTX 2080 et 2080 Ti ?

La GeForce RTX 2080 sera disponible dès demain, la RTX 2080 Ti, dans une semaine. Il est grand temps de voir si elles ont dans le ventre de quoi tenir la promesse de performances jusqu’à 50 % supérieures à celles des GTX Séries 10.

C’est l’heure de vérité pour les cartes graphiques Nvidia GeForce RTX 2080 et RTX 2080 Ti. Après leur lancement le 20 août dernier en marge de la GamesCom et les multiples présentations techniques que nous avons eu la chance de suivre, nous en attendons beaucoup et il est temps de pouvoir entrer dans le vif du sujet. Les premiers utilisateurs devraient en effet pouvoir mettre la main sur la RTX 2080 dès demain.

La valse des Cores

Les promesses faites par Nvidia sont très alléchantes et reposent sur une architecture complètement repensée. On y trouve encore plus d’unités de calcul CUDA Cores, des niveaux caches remaniés et/ou agrandis et un GPU Boost (version 4.0) dont le comportement a été modifié. Pour plus de détails, nous vous renvoyons à l’article A lire ci-dessous.

À lire : GeForce RTX : la nouvelle architecture Nvidia Turing passée au crible
Nvidia – Les blocs SM contiennent toutes les variétés d’unités d’exécution. Quatre unités SM composent un bloc TPC.

Impossible de ne pas mentionner l’arrivée des unités Tensor Cores et RT Cores sur le circuit, un héritage de l’architecture professionnelle Volta. Elles vont être en charge d’améliorer le rendu des jeux vidéo existants et à venir. A condition qu’ils soient optimisés, bien évidemment. Pour tout savoir sur leur rôle et la façon dont ils sont censés embellir nos jeux, reportez-vous à notre article A lire, ci-dessous.

À lire : Comment les nouvelles cartes Nvidia GeForce RTX comptent sublimer nos jeux vidéo

Bilan, avec toutes ces innovations, Nvidia est catégorique : les RTX peuvent se révéler deux fois plus puissantes que leurs aînées.

GeForce RTX vs GeForce GTX : les données techniques

Des démos de jeux pour le DLSS, pour le RTX pas encore

Les RTX sont des cartes graphiques tournées vers le futur. En effet, actuellement, il n’y a pas de jeux complets qui soient compatibles DLSS ou RTX à se mettre sous la dent. Même Shadow of the Tomb Raider, qui fait partie des premiers jeux optimisés pour les deux technos et sorti depuis le 14 septembre dernier, n’a pas encore bénéficié des mises à jour nécessaires. Vous voyez où nous voulons en venir : impossible de tester ces deux nouvelles technologies dans des titres que nous connaissons déjà.

Toutefois, Nvidia se devait de montrer les muscles ! Le concepteur a fourni à la presse deux démos qui utilisent le DLSS, la première est celle de Final Fantasy XV et la seconde, celle de Epic Infiltrator.
Nous avons ainsi pu faire un début de comparatif entre un rendu utilisant du TAA (Temporal Anti-Aliasing) et du DLSS, aussi bien d’un point de vue visuel que de celui des performances pures, puisque nous avions quelques scores générés par les applis.
Toutefois, nous n’avions pas la main sur les réglages graphiques, ni la possibilité de les affiner à notre sauce. Nous prendrons donc les résultats ci-dessous avec des pincettes en attendant de pouvoir les reproduire nous-mêmes.

Quoi qu’il en soit, comme le montre les résultats, l’activation du DLSS ne provoque pas de pertes d’images par seconde. Au contraire. En TAA, qui mobilise uniquement les CUDA Cores pour simplifier, les RTX affichent des scores bien moins élevés que ceux que l’on peut obtenir en activant le DLSS. Cette technologie met à contribution les Tensor Cores, soulageant de fait les CUDA Cores. Ils se focalisent donc sur d’autres tâches et le nombre d’images par seconde grimpe de l’ordre de 30%, le tout en 4K, rappelons-le. Appréciable.

Sur le plan visuel – et il va falloir ici nous faire confiance – les différences sont perceptibles, les images sont un peu plus nettes et le crénelage, moins visible. Néanmoins, il faut savoir raison gardée : cela ne saute pas aux yeux du premier coup. Il faut prendre le temps de se concentrer sur certains détails, certaines images ou scènes.

Dans le cas du RTX, Nvidia nous a fourni la démo Star Wars créée en partenariat avec Unreal Engine et ILMxLab, celle qui tournait sur 4 cartes graphiques à base de puces Volta lors de sa première présentation et qui, pour le lancement des RTX a été un peu remaniée pour être prise en charge par les cartes Nvidia grand public.

Toutefois, pour en profiter, il nous aurait fallu passer en mode Developer dans Windows afin d’avoir accès à la version démo de DirectX Ray-Tracing, déjà implantée dans la dernière mise à jour de Windows 10 et dont la version finale ne sera déployée qu’avec l’October Update.

Pour des raisons de temps et dans un souci de conserver notre plate-forme stable, nous avons pris la décision de ne pas le faire. Nous attendrons donc encore un peu avant de pouvoir essayer et de nous émerveiller devant les prouesses visuelles et lumineuses du RTX. Prouesses que 4A Games, le studio en charge du développement de Metro : Exodus, a récemment mis à l’honneur dans sa dernière vidéo commentée ci-dessous.

Avant-propos et GPU Boost

Nous avons réalisé tous les tests sur notre plate-forme de référence dont vous retrouverez le détail dans notre précédent dossier sur les cartes graphiques. A ce propos, ne vous étonnez pas de ne pas trouver de cartes AMD dans ce dossier. Nous n’avons tout simplement pas réussi à mettre la main dessus pour avoir un panel complet. Toutefois, nous espérons obtenir des Vega RX 56 et 64 (et une Radeon RX 580) dans quelque temps. Si c’est le cas, nous ne manquerons pas de faire une mise à jour des graphiques.
Cependant, considérant les prestations des derniers GPU AMD face aux GTX l’année dernière, il y a peu de chances que – même avec de bons pilotes bien optimisés – les Radeon arrivent à faire aussi bien que les RTX…

Nous avons soumis les cartes GeForce GTX 1080 et 1080 Ti et RTX 2080 et 2080 Ti à nos jeux usuels, auxquels nous avons ajouté Shadow of the Tomb Raider et Assassin’s Creed : Origins.
Nous n’utilisons pas toujours les mêmes jeux suivant les définitions. Dirt Rally n’est ainsi présent qu’en 1440p et en 4K, par exemple. Par ailleurs, tous les titres sélectionnés ne sont pas visibles dans les graphiques. Ils servent toutefois à élaborer les moyennes et écarts constatés entre les deux générations de GeForce.

Avant de commenter les graphiques ci-dessous, nous préciserons quelques valeurs relevées au cours de nos tests, en matière de GPU Boost. Pour rappel, cette fréquence est donnée à titre indicatif par Nvidia, comme un minimum garanti. Mais les cartes peuvent monter plus haut, tout dépend de la qualité de la puce et de sa tolérance à encaisser les charges, tant d’occupation que de courant, etc. Nous, nous avons été gâtés.
Ainsi, sur notre modèle RTX 2080 Ti Founders Edition, la fréquence de base est donnée pour 1350 MHz et le Boost, pour 1635 MHz. Sur la RTX 2080, ces mêmes valeurs sont respectivement de 1515 MHz et 1800 MHz, selon Nvidia.

Nos deux exemplaires de tests, eux, sont parvenus à atteindre la fréquence maximum de 1935 MHz pour la Ti et de 1950 MHz pour la 2080 classique. En outre, la RTX 2080 Ti arrive à se maintenir au-delà des 1660 MHz – 1665 MHz à 1830 MHz très exactement – dans la plupart de nos épreuves, sans jamais connaître de coups de chaud (voir ci après pour le bruit, la chauffe et la consommation). La RTX 2080, pour sa part, oscille entre 1700 et 1860 MHz dans les mêmes conditions. Bluffantes.

RTX vs GTX : le match en Full HD, 1440p et 4K

Attention, avalanches de graphiques !

A la lumière des deux premiers graphiques, réunissant les relevés effectués sur les jeux en Full HD et 1440p, un constat – à chaud – s’impose. Les RTX 2080 et 2080 Ti s’ennuient ferme en Full HD et en 1440p ! Entre elles et les GTX, les écarts d’images par seconde ne sont pas très marqués dans ces deux définitions, sur les jeux actuels, The Division et Rainbow Six : Siege mis à part. Il arrive même que les GTX affichent les mêmes scores voire… de meilleurs.
Au global, la nouvelle génération l’emporte évidemment. Nous avons mesuré 10 à 12 % d’écart moyen entre une RTX 2080 Ti et une GTX 1080 Ti en Full HD (avec des pointes à 32%), et 16 et 18 % en 1440p (35 % dans certains jeux).
Pour la RTX 2080, la tendance est presque la même. En 1080p, les écarts moyens de performances sont de l’ordre de 15 % (jusqu’à 48 % max.). En 1440p, les 23% sont atteints (jusqu’à 54 % de performances en plus parfois).

Les mauvaises langues pourront dire qu’on s’attendait à mieux. Cependant, il faut rappeler deux choses. La première, les RTX se destinent clairement à être connectées à un écran 1440p (2080 et 2080 Ti), 4K conseillé (2080 Ti). La seconde, ces résultats sont aussi causés par une contrainte technique, liée à la fois aux cartes Nvidia et à notre plate-forme de test.

Notre configuration est équipée d’un processeur Intel qui commence à accuser quelques années de bons et loyaux services. On trouve à la manoeuvre un Core i7-6700K, presque identique au 7700K. Malgré ses quatre coeurs et ses huit threads à 4/4,2 GHz, il ne parvient pas à répondre à la demande des cartes graphiques RTX. Gourmandes, va !
Elles pourraient traiter beaucoup plus d’informations dans cette définition mais le processeur n’arrive pas en délivrer assez suivant les jeux. Nous sommes “CPU Limited”, comme le veut le terme consacré.
C’est pour cela que les scores Full HD et 1440p sont si parfois proches de ceux des anciennes cartes graphiques. Aparté, nous avions déjà constaté ce phénomène d’embouteillage des données lors de nos tests des GeForce GTX 1080 Ti et Titan Xp mais dans une bien moindre mesure sur la première, déjà un peu plus sur la seconde.

D’ailleurs, il n’y a qu’à regarder les graphiques 4K pour se rendre compte que tout l’intérêt des GeForce RTX réside dans leur capacité à gérer l’UHD, même avec une configuration au processeur vieillissant. La RTX 2080 Ti étant clairement plus à l’aise que la RTX 2080 dans cet exercice quand il s’agit d’atteindre les 60 images par seconde. Avec de si grandes images et autant de polygones à gérer, les GPU ont beaucoup plus de travail, suffisamment pour que toutes informations envoyées par le CPU (même notre 6700K tient presque la mesure) ne s’embouteillent pas dans les tuyaux et soient traitées en bonne et due forme.

Les graphiques parlent d’eux-mêmes, les écarts sont bien plus creusés entre les deux générations de cartes, peu importe les jeux ou les tests analytiques. Ainsi, en moyenne, la RTX 2080 Ti fait 27 % de mieux que la 1080 Ti (avec des pointes comprises entre 40 et 49 % sur certains jeux), et la GeForce RTX 2080, elle, offre en moyenne des gains de 35 % par rapport à la GTX 1080 (avec des pics mesurés à 55 %).

Consommation, bruit et température

Commençons par le plus facile, le bruit. Nous n’effectuons pas de mesure au sonomètre car nous partons du principe que tous les boîtiers ne sont pas insonorisés de la même façon. Mais après plusieurs heures passées à côté des cartes torturées, nous pouvons affirmer sans mal que les nouveaux systèmes de ventilation de Nvidia sont vraiment très silencieux. C’est même assez déconcertant.
Sur la 2080 Ti, les ventilateurs dépassent de temps à autres les 2000 tours/min dans les séances de jeu musclées, sans jamais émettre le moindre vrombissement gênant. On précisera toutefois que leur vitesse de croisière se situe aux alentours de 1500 à 1700 tours/min.
Sur la RTX 2080, la ventilation atteint les 1920 tours/minute au maximum mais se situe généralement entre 1400 et 1700 tours/min, toujours dans le silence le plus complet.

Sont-ils efficaces ? Nous avons utilisé les sondes intégrées à GPU-Z pour mesurer les températures des cartes à différents moments de nos tests et, en moyenne, nous avons constaté que les 2080 et 2080 Ti plafonnaient à 75-76°C dans nos sessions 3D Mark, et 67 à 77°C lors des tests de jeux. Précisons que les cartes testées (et donc notre plate-forme) ne sont pas enfermées dans un boîtier mais sont exposées à l’air libre, dans une pièce maintenue à 25°C en moyenne. Notons enfin que tout l’air chaud est principalement expulsé vers l’intérieur du boîtier et non plus vers l’extérieur, comme avec le ventilateur de type blower des cartes Founders Edition de génération Pascal. Nous le regrettons, et nous ne serons sans doute pas les seuls.

Reste le volet de la consommation. Assez logiquement le wattmètre affiche des résultats à la hausse lorsque les RTX sont en action. Comme d’habitude, nous avons effectué plusieurs mesures et force est de constater que The Division et son gros moteur font toujours autant travailler les étages d’alimentation des cartes, plus que le test 3D Mark Fire Strike Ultra que nous utilisions en boucle pour faire chauffer et consommer les cartes graphiques il y a encore un an.

On notera toutefois qu’au repos, les nouvelles cartes de Nvidia font beaucoup plus consommer notre plate-forme de test : 30 % en moyenne. Un problème que le concepteur aurait identifié et qu’il pourrait corriger en optimisant l’algorithme dans de futures versions de pilotes. En sollicitation intense, notre plate-forme équipée de la GTX 2080 Ti est en moyenne 10 à 12 % plus vorace que lorsque la 1080 Ti est logée dans la prise PCI-E. Avec la RTX 2080, on observe jusqu’à 22 % de consommation en hausse. C’est un soupçon plus que ce à quoi nous nous attendions.

Premiers tests, premières conclusions

Nous sommes arrivés au terme de nos premières aventures avec les nouvelles GeForce RTX 2080 et 2080 Ti de Nvidia. Quelles conclusions en tirer ?
La première, c’est que si vous avez une configuration sensiblement identique à la nôtre, que vous ne jurez que par la Full HD voire le 1440p et n’avez que faire des jeux à venir ou penser que le RTX et le DLSS ne changeront pas votre vie de joueur PC… alors opter pour une GeForce RTX haut de gamme n’est pas ce que vous avez de mieux à faire pour le moment. Néanmoins, vous vous privez – en un sens – des jeux futurs et de leurs améliorations graphiques. Vous pouvez aussi attendre de voir ce que la RTX 2070 aura dans le ventre et vous décider à partir du 20 octobre prochain.

Deuxième conclusion. Si vous ne souhaitez pas passer à la 4K tout de suite mais que vous décelez le potentiel des RTX et avez envie d’en prendre plein les yeux dans les jeux qui prendront en charge le DLSS et le ray tracing, alors investir peut se justifier. Dans la 2080 pour la 1440p et dans sa grande soeur pour la 4K. Vous aurez ainsi l’assurance d’avoir accès aux prochaines technologies graphiques et de les mettre en oeuvre dans de très bonnes conditions.

Troisième conclusion, vous avez un écran 4K, la configuration musclée qui va avec et vous voulez enfin atteindre les 60 images par seconde sans faire de concessions lourdes sur les niveaux de détails. Bref, vous êtes tout à fait le genre de gamer à mettre la main sur tous les AAA à venir susceptibles de tirer parti du DLSS et du RTX ? Alors, foncez, si votre tirelire vous le permet, bien sûr.

Avant d’entamer le débat sur le positionnement tarifaire des RTX, il nous semble important de rappeler que ces cartes proposent une puce à l’architecture innovante qui est l’une des plus grosses que l’industrie ait vue. Elle coûte forcément un certain prix à produire. Sans parler des années de développement que l’architecture Turing a demandé aux ingénieurs de Nvidia. Toujours sur le versant composant, il y a fort à parier que les modules GDDR6 (de marque Micron sur nos modèles de test) constituent aussi une ligne de dépense importante, au même titre que les nouvelles puces chargées de réguler la tension et la consommation des cartes (les VRM).

Puis vient le fameux système de refroidissement propre aux Founders Edition, qui s’est révélé très efficace et silencieux pendant toute cette première phase de test. Vu sa qualité de finition et de conception, il est certain que – là encore – Nvidia a dû dépenser quelques bonnes poignées de dollars pour arriver à un dispositif qui le satisfasse pleinement.

Tout cela nous permet donc, non pas de justifier aveuglement le tarif très élevé des RTX 2080 et 2080 Ti, mais de le mettre un peu plus en perspective. Oui, les RTX sont chères, plus onéreuses que les modèles GTX équivalents à leur sortie. Le modèle Founders Edition de la 2080 Ti est annoncé à presque 1260 euros quand la 2080 classique, elle, s’affiche à 850 euros.

Et les prix des cartes des partenaires affichent des prix bien plus élevés pour beaucoup d’entre elles : jusqu’à 1500 euros pour la RTX 2080 Ti et 1000 euros pour quelques RTX 2080. Toutes optent pour un dissipateur maison et quelques-unes voient leurs fréquences de fonctionnement dopées, permettant de justifier les centaines d’euros supplémentaires demandées.

Mise à jour du 21 septembre 2018 :
Nous avons ajouté la Titan Xp Star Wars Edition dans l’arène et avons reporté les résultats obtenus dans les différents graphiques. Ce monstre est assurément surclassé par la nouvelle RTX 2080 Ti. Il parvient parfois à tenir tête à la RTX 2080 au prix d’une consommation supérieure en charge et, aussi, parce que notre plate-forme matérielle montre à nouveau ses limites, notamment au niveau du CPU.

🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.